چرا پردازنده شبکه عصبی در دوربین پیکسل 4 اهمیت زیادی دارد؟
پیکسل ۳ علیرغم داشتن تنها یک لنز یکی از بهترین دوربینهای بازار را در اختیار دارد و عمده دلیلش به خاطر الگوریتمهای نرمافزاری گوگل است که در ترکیب با کمی یادگیری ماشینی تصاویر فوقالعادهای میسازد. گوگل برای پردازش این الگوریتمها از پردازنده خاصی به نام Pixel Visual Core استفاده میکند که اولین بار آن را در سال ۲۰۱۷ و روی پیکسل ۲ دیدیم. حالا به نظر میرسد که امسال این هسته پردازشی با چیزی به نام Pixel Neural Core جایگزین شده است.
Pixel Visual Core طراحی شده بود تا به الگوریتمهایی کمک کند که توسط سیستم پردازش تصویر +HDR گوگل دست به خلق تصاویر جذاب پیکسل ۲ و پیکسل ۳ میزد. این هسته با کمک یادگیری ماشینی و چیزی که تصویربرداری پردازشی نامیده شده بود به اصلاح بخشهایی از تصویر میپرداخت که از کیفیت کافی برخوردار نبودند.

حالا اگر Pixel Neural Core همان چیزی باشد که انتظارش را داریم، پیکسل ۴ میتواند دوباره به صحنه رقابت گوشیهای قدرتمند رفته و حتی آنها را از میدان به در کند. در ادامه مطلب با جیاسام همراه باشید.
شبکههای عصبی
گوگل ظاهرا در پیکسلهای ۲۰۱۹ خود از تراشهای استفاده کرده که با الگوبرداری از تکنیکهای شبکه عصبی ساخته شده و به بهبود سیستم پردازش تصویر میپردازد. احتمالا تاکنون اصطلاح شبکههای عصبی را شنیدهاید، اما ممکن است با مفهوم آن آشنا نباشید. شبکههای عصبی گروهی از الگوریتمها هستند که با الهام از مغز انسان ساخته شدهاند. البته این الگوبرداری نه بر اساس شکل یا نحوه کارکرد مغز، بلکه بر اساس چگونگی پردازش اطلاعات توسط آن صورت گرفته است. شبکههای عصبی اطلاعات حسی را از چیزی تحت عنوان ادراک ماشینی – مثلا لنز دوربین – دریافت کرده و الگوهای آن را تشخیص میدهند.
این الگوها وکتور نامیده میشوند. تمام اطلاعات خارجی از دنیای واقعی، از جمله تصاویر، صداها و متون، به وکتور ترجمه شده و به عنوان مجموعههای دادهای طبقهبندی میشوند. شبکههای عصبی را مثل لایهای اضافی در بالای چیزهایی در نظر بگیرید که روی کامپیوتر یا موبایل ذخیره میشوند و حاوی اطلاعاتی هستند که ماهیت محتواها را توصیف میکند؛ مثلا نشان میدهد که تصاویر چه شکلی هستند، صداها چه اصواتی دارد، متنها چه میگویند و غیره. وقتی فهرستی از این اطلاعات ساخته شد، دادههای جدید را میتوان در آن فهرستها دستهبندی و محتوایشان را با یکدیگر مقایسه کرد.

به مثالی از دنیای واقعی توجه کنید تا بهتر با این شبکهها آشنا شوید. شرکت انویدیا پردازندههایی میسازد که عملکرد بسیار خوبی در اجرای شبکههای عصبی دارند. این شرکت قبلا هزینه زیادی صرف اسکن و کپی تصویر تعداد زیادی گربه به درون یک شبکه عصبی کرده بود و در پایان موفق شد تصویر هر گربهای را از داخل هر عکسی شناسایی کند. این سیستم میتوانست تصاویر گربههای کوچک، بزرگ، پشمالو و حتی شیرهای کوهی را شناسایی کند، چرا که این شیرها هم از دسته گربهسانان به حساب میآیند و شبکه عصبی انویدیا آن قدر اطلاعات از گربهها داشت که قادر به شناسایی همه انواع آنها باشد.
حالا با در نظر داشتن این مثال میتوانید ببینید که چرا گوگل به دنبال استفاده از این فناوری در داخل گوشیهای پیکسل است. یک هسته عصبی که قادر به برقراری تعامل با حجم عظیمی از اطلاعات باشد میتواند محتوای حاضر در لنز دوربین شما را شناسایی کرده و تصمیم بگیرد که با آن چه کار کند.
با توجه به قدرت و توانایی عظیم گوگل، طراحی تراشه کوچکی که بتواند با شبکههای عصبی و سیستمهای پردازش تصویر کار کند امر دشواری نخواهد بود و بهراحتی میتوان فهمید که چرا این شرکت به دنبال استفاده از چنین راهکاری است. البته ما هنوز از جزئیات و مشخصات Pixel Neural Core آگاه نیستیم و نمیدانیم که گوگل چطور میخواهد از آن استفاده کند، اما زمانی که این گوشی رسما عرضه شود میتوانیم قضاوت بهتری نسبت به عملکرد آن داشته باشیم.
